其他
骄傲!浙工大这一团队项目荣获浙江省自然科学一等奖!
视觉系统是人工智能的“眼睛”。多年来,浙江工业大学计算机科学与技术学院陈胜勇教授团队一直致力于场景目标运动状态的视觉分析方法研究。7月17日,浙江省科学技术奖励大会传来喜报:“视觉系统中的目标物运动状态分析”项目荣获浙江省自然科学一等奖。
今天,在一些医院里,医护人员的部分工作已经交给5G智能医护机器人。一台长得像“大白”的机器人驻守在门诊大厅,为患者导诊,进行防疫宣传;另一台转动灵活的机器人正背着药箱和消毒水箱,进行医药配送、地面消杀和清洁。
“疫情的发生,让机器人协助人类进行急难险重工作的作用得到集中体现。”事实上,能有这样的效果,得益于近年来机器人的视觉系统发展。
“我们的项目是以人工智能为基础的计算机分析技术,目的是为了让系统可以随时监测场景和物体的变化情况,是机器实现智能决策和自主行为必备的功能。”项目负责人陈胜勇说。这是一支由浙江工业大学、温州大学和香港城市大学组成的精英团队,他们在国家基金的杰青、优青、重点等10余项国家级项目的支持下开展了近10年的研究。
“应用最先进的人工智能和机器视觉技术,帮助计算机和机器人对环境中的运动对象进行运动状态的跟踪和分析。”项目成员张剑华说,“我们的项目能够随时监测场景和物体的变化情况。这些技术目前主要应用于安防监控、工业生产流水线中,通过机器人、无人机执行。”
◎无人机应用
一旦掌握了周边环境变化情况,机器人就能进一步实现智能决策和自主行为。给机器人装上“眼睛”之后,它将更好地服务国民经济生产及百姓日常生活。比如,一条固体垃圾资源再生的生产线,如果机器手臂不长“眼睛”,那就需要借助人类的“眼睛”分辨哪些是可利用的建筑垃圾材料,而这一技术恰恰弥补了机器手臂“盲目”的缺点,实现了精准筛选。在交通监控上,这双“眼睛”能够迅速发现异常行驶的汽车轨迹,并及时报警,大大减轻了民警的劳动强度,解放了大量的纠违警力,又能为抢救伤员赢得宝贵的时间。
该项目的胜出离不开其科学理论贡献。它突破了在陌生复杂环境中对象分割和场景描述问题。能够快速准确地分割场景中静止和运动的个体目标,还能提供计算机和机器人可以理解的场景内容描述。它突破了复杂环境中多个目标跟踪问题。开创性地应用多种群序列粒子群优化技术,能够准确实时跟踪场景中多个运动目标。它突破了复杂场景中目标对象的运动状态分析问题。提出新的理论,解决了传统技术面临的噪声和遮挡问题。
◎场景内容分析
该团队培养了一批博士、硕士研究生,他们参与算法研究、实验验证等工作。“谢榛博士参与无人机平台算法验证工作,赵妍珠、陈敬帛博士参与了安防监控领域车辆再识别研究。还有张少波、宋洪章、邱叶强等硕士生参与了机械手臂分拣建筑垃圾等工作。”张剑华说,“学校和学院为我们提供了大量的支持。在学院里,我们有充足的研究和试验场地。我们航模队得到了学校提供的场地和经费,为我们在无人机平台上验证研究成果保驾护航。”